Yiksan0315's Blog

ResNet

# Tag:

  • Source/KU_ML2

ResNet(Residual Networks)

layer 사이의 skip connection을 두어서, 몇 레이어 이전의 output이 다시 input에 포함되도록 하는 구조의 Network.

몇 Layer 이전의 output이 다시 input으로 들어오게 되므로, 학습이 어느 정도 잘못 되더라도 복원이 가능하다고 할 수 있다.

개의 Layer이 이전의 output과, 바로 직전의 output이 합성되어 새로운 output 이 만들어진다. 이 때, Activation Function이 되며, 는 보통 Indentity를 유지하기 위해 Identity Matrix를 이용해 입력이 그대로 들어가게 한다.

출력층의 결과를 라고 한다면, 이 때 Residual이라고 불린다.
라는 학습 결과를 후의 학습에 재활용하는 것이라 할 수 있는데, 를 제외하고 더 학습해야 하는 부분인 를 Residual(잔차)로 취급하는 것이다.

이 때, 학습이 진행됨에 따라 는 0에 가까워지고, 에 근접하게 된다. 즉, 학습의 목표는 Residual function 를 최소화하는 방식으로 진행된다.

Preventing Gradient Vanishing

Layer를 깊게 쌓게됨에 따라, Gradient Vanishing와 Gradient Exploding 문제가 종종 발생하고는 했다.

ResNet에서는, Residual을 이용해 이를 방지할 수 있다.

자세한 건 나중에~

toc test

이 페이지는 리디주식회사에서 제공한 리디바탕 글꼴이 사용되어 있습니다. 리디바탕의 저작권은 리디주식회사가 소유하고 있습니다.

This Font Software is licensed under the SIL Open Font License, Version 1.1.

Copyright 2025. yiksan0315 All rights reserved.